Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Geschäftsmann mit einem Chatbot in Smartphone Intelligenz AI. Chat GPT mit AI Künstliche Intelligenz, entwickelt von OpenAI generieren. Futuristische Technologie, ein Roboter in einem Online-System. (Shutterstock)

Elon Musk schließt sich mehr als 1000 Experten an, die einen sofortigen Stopp bei der Entwicklung fortschrittlicher KI fordern – “Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren”?

Twitter-CEO Elon Musk hat sich Dutzenden Experten für künstliche Intelligenz (KI) und Führungskräften aus der Industrie angeschlossen und einen offenen Brief unterzeichnet, in dem alle KI-Labore aufgefordert werden, das Training von Systemen, die leistungsfähiger als der Chat GPT-4 sind, für mindestens sechs Monate “sofort zu unterbrechen”.

Der Brief, der vom gemeinnützigen Future of Life Institute herausgegeben wurde, ist von mehr als 1.100 Personen unterzeichnet worden, darunter der Apple-Mitbegründer Steve Wozniak, der Gründer und CEO von Stability AI, Emad Mostaque, und Ingenieure von Meta und Google, um nur einige zu nennen.

Sie argumentieren, dass KI-Systeme mit konkurrenzfähiger menschlicher Intelligenz “tiefgreifende Risiken für die Gesellschaft und die Menschheit” darstellen und die “Geschichte des Lebens auf der Erde” verändern können, und berufen sich dabei auf umfangreiche Forschungsarbeiten zu diesem Thema und Bestätigungen von “führenden KI-Labors”.

Die Experten führen weiter aus, dass es derzeit nur begrenzte Planungs- und Managementmöglichkeiten für fortgeschrittene KI-Systeme gibt, obwohl sich die Unternehmen in den vergangenen Monaten in einem unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe befanden, die niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann.

“Heutige KI-Systeme werden bei allgemeinen Aufgaben immer konkurrenzfähiger für Menschen, und wir müssen uns fragen: Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollen wir alle Jobs automatisieren, auch die erfüllenden? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren? Solche Entscheidungen dürfen nicht an nicht gewählte Tech-Führer delegiert werden”, heißt es in dem Schreiben.

Sicherheitsprotokolle erforderlich

“Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind”, heißt es weiter.

Das Schreiben fordert eine öffentliche und überprüfbare mindestens sechsmonatige Pause für die Ausbildung von KI-Systemen, die leistungsfähiger als GPT-4 sind, oder ein von der Regierung erlassenes Moratorium für eine solche Ausbildung, wenn die Pause nicht schnell in Kraft gesetzt werden kann.

Während einer solchen Pause sollten KI-Labore und unabhängige Experten die Zeit nutzen, um eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI-Designs und -Entwicklungen zu erstellen und umzusetzen, die “streng geprüft” und von unabhängigen Experten überwacht werden, heißt es in dem Schreiben.

Solche Protokolle sollten so gestaltet sein, dass sie sicherstellen, dass Systeme, die sich an sie halten, zweifelsfrei sicher, genau, vertrauenswürdig und aufeinander abgestimmt sind, so die Experten.

Ferner fordert der Brief die politischen Entscheidungsträger auf, rasch robuste KI-Governance-Systeme zu entwickeln, wie z. B. Behörden, die in der Lage sind, hochleistungsfähige KI-Systeme zu beaufsichtigen und zu verfolgen, Finanzmittel für zusätzliche KI-Sicherheitsforschung aufzubringen und Institutionen zu schaffen, die mit den “dramatischen wirtschaftlichen und politischen Störungen (insbesondere für die Demokratie), die KI verursachen wird, umgehen können”, wie es heißt.

“Dies bedeutet keine Pause in der KI-Entwicklung im Allgemeinen, sondern lediglich eine Abkehr vom gefährlichen Wettlauf zu immer größeren, unvorhersehbaren Black-Box-Modellen mit emergenten Fähigkeiten”, so die Experten in ihrem Schreiben.

Der Brief kommt nur zwei Wochen nachdem OpenAI, der Entwickler des künstlichen Intelligenzsystems ChatGPT, am 14. März das lang erwartete Update seiner KI-Technologie veröffentlicht hat – Chat GPT-4, das leistungsstärkste KI-System aller Zeiten.

ChatGPT-Update veröffentlicht

Nach Angaben von OpenAI, das von Microsoft unterstützt wird, verfügt das aktualisierte System über eine Reihe neuer Funktionen, wie z. B. die Annahme von Bildern als Eingaben und die Generierung von Beschriftungen, Klassifizierungen und Analysen, ist aber sicherer und genauer als sein Vorgänger.

In einer Erklärung vom Februar räumte OpenAI ein, dass es wichtig sein könnte, eine “unabhängige Überprüfung zu erhalten, bevor mit dem Training zukünftiger Systeme begonnen wird, und dass die fortschrittlichsten Bemühungen sich darauf einigen, die Wachstumsrate der für die Erstellung neuer Modelle verwendeten Daten zu begrenzen.”

“Wir sind überzeugt, dass öffentliche Standards wichtig sind, die festlegen, wann ein AGI-Projekt einen Trainingslauf beenden, ein Modell als sicher für die Freigabe betrachten oder ein Modell aus der Produktion nehmen sollte. Schließlich halten wir es für wichtig, dass die weltweit wichtigsten Regierungen Einblick in Trainingsläufe ab einer bestimmten Größenordnung haben”, so das Unternehmen.

Anfang dieser Woche warnte Europol, die Strafverfolgungsbehörde der Europäischen Union, vor den schwerwiegenden Folgen des Einsatzes von ChatGPT für Cyberkriminalität und andere böswillige Aktivitäten wie die Verbreitung von Desinformationen.

Weitere Bedenken wurden hinsichtlich der Software geäußert, die mit Hilfe von Verstärkungslernen durch menschliches Feedback (RLHF) trainiert wird, insbesondere im Hinblick darauf, dass sie Schülern dabei helfen kann, bei ihren Prüfungen und Hausaufgaben zu schummeln.

Trotz dieser Bedenken hat die Popularität von ChatGPT konkurrierende Unternehmen dazu veranlasst, ähnliche Produkte auf den Markt zu bringen.

Vergangene Woche gab Google bekannt, dass es seine KI-App, die unter dem Namen “Bard” bekannt ist, im Vereinigten Königreich und in den Vereinigten Staaten zu Testzwecken auf den Markt gebracht hat, obwohl das Unternehmen die Technologie im Vergleich zu seinen Konkurrenten viel langsamer freigegeben hat, da es noch mehr Feedback zu der App benötigt.